做公众号里的《纽约客》
戳蓝字一键关注 渡十娘
转发也是一种肯定
文字|万精油
编辑|渡十娘
数据,知识与智力 --- 闲聊chatGPT
chatGPT 现今火得不得了,网上网下都在谈。有文章说它达到9岁小孩的同理能力,已经有智力表现。还有网文说它通过了谷歌的面试,到处都是一片叫好声。许多人惊呼,这是人工智能的革命,甚至还有人说是人类文明的一个革命。当然也有人工智能大拿Yann LeCun 说chatGPT 只不过是一个打字工具而已。百家争鸣,众说纷纭。毛主席说:“要想知道梨子的滋味,就要自己尝一尝”。于是今天下午我就去试了一下。现在讲一下我的感受。先声明一下,我只试了不到一小时,完全不能说对chatGPT有深入的了解。只是对我与它的对话谈一点感受。有更深了解的读者,欢迎发表评论。------------------------------从别人的讨论看,它的强项是文科。对事物的归纳,总结都做的不错。为了开始有个好印象,我先问了一个文科题目。当然,内容不是文科,不过我的问题是要求总结,所以算文科内容。
结果相当不错。如果我自己写的话,或许会加一些细节,自己的例子,但肯定不能写得这么整洁,简明。很满意。
印象不错,我们接着来。我对它的数学能力比较感兴趣,我们先来一个简单问题。
开始似乎还不错,数字多了以后就不灵了。这个例子说明这个大语言模型还是从已知数据中插值,模拟,没有找到加法的真实意义。否则,任何位数都不应该有问题。插值模拟对大部分文科问题没有太大影响,因为那些问题没有标准答案,大方向正确就行,小差别可以看成是风格。但对有精确要求的东西,这个模型就不行了,失望。大数字不行,小一点的数字加上实际问题(所谓应用题)应该好一点,接着问。
本来以为这个简单问题对chatGPT 来说应该是得心应手。数字小,简单方程网上很多,肯定学习过,插值也可以插出来。没想到在这个简单问题上它就翻船了。估计不是数学水平问题,而是对这个问题的理解没有到位。而且我的问题根本没有说具体速度(只是说了两个速度的比例),它就自作主张的引进了每秒2米,每秒3米这些速度。当然,这样写不影响解题。一方面来说,它在问题中看到速度这个概念,值得高兴,但太不严谨。失望。
因为问了猫狗问题,我想顺便问它一下龟兔赛跑的问题(又叫芝诺悖论)。这个比较高级一点。但是这方面的讨论网上比较多,它这种大语言模型应该有据可循。而且这有一点文科味道,或许它很强。
开始回答的还算那么回事,算是理解了这个问题的数字部分,抓住了猫速与狗速的关系。但是我觉得它没有理解这个悖论的核心问题,于是决定再纠缠一下,有了第二个追问。没想到它马上缴枪,甚至还自己总结说狗永远追不上猫。这样的逻辑问题,希腊的先贤们都争不清楚,chatGPT搞不清楚也可以理解。没有满意或失望。
算术问题问过了,简单方程问过了,逻辑问题问过了,我们再来看看它的推理。
说实话,这个问题有点过于刁钻。不过,这是一个经典问题,网上关于这个问题的讨论(或者类似问题的讨论)很多,或许它见过,可以类推。没想到第一句话就错,而且错得离谱。从这个问题可以看出,它完全不清楚这个问题。或者说这类问题已经超出它的理解范围。算术,方程,逻辑,推理都失败了,来看看证明能力。这是一个经典证明。这个问题几乎有标准答案,网上有很多,应该是它的强项。但是,英文网上看到有人问它这个问题,也翻船了。我把它翻译成中文,想自己看看结果。
根号2不是有理数的证明是很经典的,它果然没有让我失望。证明的像模像样(有个别地方不够严谨,但基本思路没有问题)。而且还能延拓,模仿,用同样的方式来证明根号3不是有理数。这应该是插值的结果,不错。
没想到,我两个问题连着问,竟然引发它的发散思维,把这个问题做了推广,甚至数学归纳法都出来了。这个发散很让我吃惊,不是失望,而是惊喜。它能做发散思维,说明有一定的总结能力。虽然这个发散不完全正确,但有发散就不错,没有失望。不过,因为它发散出数学归纳法,我于是又问了下一。没想到它原形毕露。错大发了。
竟然证明出根号4是无理数。
-----------------------------
别的方面别人已经试过很多,我听说有很多学生用它做家庭作业,所以想测一下它的数学能力。大家都看见了,数学能力很弱,或者说没有。
那么问题来了,chatGPT 到底有没有智能?
这个问题的答案要看如何定义“智能”。如果你在一个荒漠里碰见chatGPT,问它问题它基本上都能理解,而且还能给出答案,指出方向,那么你肯定会说它有智能。因为它能听懂你的语言就已经很了不起,而且有些问题还不是简答句子,它也基本没有问题。从这种意义上来说,说chatGPT 有智能或许说的过去。
但是,真正的智能应该不止于在已知现象中插值,而是能理解已知现象,找出其本质,发现一些未知的联系。比如猫的识别问题。一个三岁的小孩子看过猫和狗以后,就能区分猫和狗,不管它们以什么形式出现。躺着,趴着,吊着,甚至从沙发后露一个耳朵,小孩子都可以识别出来。但是,给计算机喂成千上万张不同的猫狗图片,它们还是不能准确的判断(绝大部分时间没有问题,但如果有其它障碍,干扰,就会出问题),因为它们没有本质上了解猫与狗,只是从已知数据中抽象,插值,也就是俗语所说的“照葫芦画瓢”。chapGPT 目前就处在插值阶段(或许更上面一点)。如果我们对智能的定义是要能发现本质,推出新东西的话,chapGPT 还差一些。
为了更好地说明这个问题,我们先看看我在Facebook上看到的这个图
这个图很好地展示了从原始数据到智慧的区别。我以前在微博上对这个图发过一个评论。下面是那条微博---------------------------------------1. 数据,比如,3.14, 9.8, 2.8,5.3 ....
2. 信息:数据赋予特性,比如圆周率,重力加速度,小鸟的重量,体积....,
3. 知识:信息之间的联系,比如小鸟的重量与体积之间的关系,...
4. 灵感:小鸟的嘴的形状似乎与环境有关,星体的光谱与速度有关,...
5. 智慧,找到这些东西的内在联系,发展出进化论,宇宙膨胀,大爆炸,...
6. 阴谋论:捕风捉影,瞎联系,发现怪兽。
最后一条虽然是搞笑,但为此图增色不少。------------------------------------------
回头来说chatGPT. 数据肯定是足够的,信息也没有问题。以前的谷歌搜索就到这一步。你要搜什么,就给你把相关数据,信息列出来。至于这些信息之间的关系,你必须自己去连接,去筛选。以chatGPT 为背景的微软Bing 搜索器比谷歌进一步,已经能做到第三步,把这些相关信息联系起来,并给你筛选总结出来。 灵感部分还没有(或者说还很弱),偶尔会冒一些出来(比如前面的归纳法)。智慧部分更是欠缺。所以,从这个意义上来说,chatGPT 有知识,但还没有智慧,正在从第三向第四迈进。当然,比Yann LeCun 所说的打字工具要好一些。说到定义,计算机人工智能领域里一直就有所谓强AI,弱AI的区分。所谓强AI就是它能独立于人类解决问题。目前还没有任何这方面的例子。
当然,有前三步的能力已经很厉害了。人类的体力活已经逐渐被机器取代。干所谓“脑力”活的大部分人的工作实际上都在前三步。许多人在收集数据(或者创造数据,或者自己就是数据),有不少人在给这些数据赋予信息,还有更多的人在给这些信息之间建立联系。对这些人来说,chatGPT 或类似的东西将会取代他们的工作。对未来的人来说,他们将会被从1,2,3步骤中解放出来,有更多的精力投入到灵感或智慧阶段去。chatGPT 已经开始向这个方向迈步,给它鼓掌。
做更好的公号,做最好的自己
昨日更新:
热文链接:
2022 热文排行榜:
其他:
读完请点"在看"让更多人看到
图片 I 网络
整理 I 编辑 I 渡十娘
清单内容来自 I 万精油
版权归原作者 I 如有侵权 I 请联系删除
生活中
总有些东西值得分享
渡·十·娘
DES
IGN
发现 I 家庭 I 乐趣
想每天与渡十娘亲密接触吗?
喜欢?粉她!
有话想说:
海外:dushiniang999@gmail.com
国内:dushiniang999@126.com